OpenAI indaga i rischi dell’intelligenza artificiale. Inclusa la minaccia nucleare

OpenAI indaga i rischi dell’intelligenza artificiale. Inclusa la minaccia nucleare


Dopo la diffusione delle più stravaganti teorie catastrofiste legate all’evoluzione dell’intelligenza artificiale, OpenAI corre ai ripari. La società madre di ChatGpt ha annunciato la formazione di un team dedicato all’analisi e alla valutazione dei rischi dei nuovi modelli di AI, così da preservare la sicurezza degli utenti, e non solo. Il gruppo di lavoro, chiamato Preparedness, sarà guidato da Aleksander Madry – direttore del Center for Deployable Machine Learning del Massachusetts Institute of technology – e avrà il compito di “monitorare, valutare, prevedere e proteggere da rischi catastrofici”. Tra questi, secondo quanto riferito dalla stessa OpenAI, ci sarebbero anche eventuali minacce chimiche, biologiche, radiologiche e nucleari”, oltre alla capacità dell’AI di generare codice malevolo e a quella di ingannare gli utenti.

L’annuncio, per quanto possa sembrare insolito, risulta essere perfettamente in linea con il pensiero di Sam Altman, ad di OpenAI, che in più di un’occasione ha espresso il timore che l’evoluzione dell’intelligenza artificiale possa “portare all’estinzione umana”. Una preoccupazione che lo ha portato a costituire un team di lavoro dedicato allo studio di scenari che, finora, erano menzionati soltanto nei romanzi distopici. Eppure, OpenAI sembra davvero convinta di voler conoscere tutti i rischi possibili – e immaginabili – dei suoi prodotti futuri.

Riteniamo che i modelli di intelligenza artificiale di frontiera, che supereranno le capacità attualmente presenti nei modelli esistenti più avanzati, abbiano il potenziale per apportare benefici a tutta l’umanità. Ma comportano anche rischi sempre più gravi”, scrive la compagnia nel suo blog ufficiale, sottolineando la volontà di perseguire una politica di sviluppo formata sul rischio, così da garantire a pieno la sicurezza dei suoi utenti. Proprio per questo, infatti, OpenAI ha lanciato anche una sfida volta a “identificare aree di preoccupazione meno ovvie”, così da permettere a esperti del settore e addetti ai lavori di individuare qualunque rischio possibile legato all’evoluzione dei modelli AI. Per prevenire anche l’inimmaginabile, ammesso che sia possibile.



Leggi tutto su www.wired.it
di Chiara Crescenzi www.wired.it 2023-10-27 14:27:39 ,

Previous La storia del bambino risarcito dalla Regione Sicilia perché gli aveva vietato di uscire a giocare durante il lockdown

Leave Your Comment